范式轉變
我們正從一種 「以效能為唯一目標」 思維,轉向 負責型人工智慧(RAI) 框架。在這個新時代中,技術上的成功嚴格取決於道德上的穩健性與安全防護機制。
1. 受限優化
過去,目標是極小化損失函數 $L(\theta)$。新範式將人工智慧視為一個受限優化問題:$$\max P \text{ 限制條件為 } C_1, C_2, \dots, C_n$$ 其中 $C$ 代表不可妥協的安全與公平門檻。
2. 「體外」與「體內」之間的差距
模型通常在靜態基準測試(體外)上達到尖端(SOTA)成果,但在現實世界的社會技術環境中(體內)卻因未預見的互動而導致災難性失敗。
左側:高準確率/高速度,零安全/透明度。右側:代表安全、公平與可解釋性的均衡六邊形。
範例:高頻交易
僅追求效能的模型若能最大化報酬率(ROI),即算成功。而負責型人工智慧(RAI)模型則會失敗,即使獲得高報酬率,但若觸發了 「閃崩」 正是因為缺乏市場穩定性防護機制所致。